#AI 競賽
Fortune雜誌─中美AI競賽:界限日益模糊,下一戰關鍵何在?
在《MPW零度對話》系列中,我們邀請中國最具知名度和影響力的女性領導者,討論當下所有人共同關心的話題,從充滿熱情和妙趣的對話中,提煉出冷靜理性的智慧。臨近年末,多家權威詞典公佈的年度詞彙均指向 AI,例如“slop”(網路垃圾)、“vibe coding”(氛圍程式設計)與“rage bait”(憤怒誘餌)。而在中國,幾家機構聯合推選的年度國內詞則是“DeepSeek”。對身處矽谷這一全球AI創新中心的投資人而言,如果選擇一個年度詞彙,很可能是“泡沫”。AI投資泡沫的討論貫穿全年——從美股市場對AI概念的追捧、科技巨頭之間為抬高估值的“循環交易”,到近期亞馬遜與OpenAI正在洽談的高達100億美元的投資,狂熱與質疑同在。矽谷投資人、連續創業者、Fusion Fund創始人張璐指出,目前部分模型公司在零收入階段的估值已高達數億美元,市場遲早會迎來價格重設。事實上,本月甲骨文與資料中心服務商CoreWeave已出現市值大幅回呼,幅度堪比2000年或2008年的市場下跌。投資者正在拋售那些看似過度擴張的公司股票。不過,張璐對這輪泡沫的前景持審慎樂觀態度。她認為,與2000年網際網路泡沫時期大量科技公司缺乏實際收入、偏向C端不同,本輪AI創新背後有真實的產業需求支撐,且初創企業正加速轉向B端。“一旦與企業流程深度融合,AI公司的收入便會趨於穩健。”她預測。泡沫之外,張璐更加關注的是今年AI領域呈現的新趨勢。在她看來,2025年AI領域經歷了“上升”和“下沉”——一邊是全球競賽中的技術持續突破,一邊是AI加速向產業深處落地。技術“上升”在AI基礎設施層,尤其是晶片領域,過去由GPU主導的格局正逐步走向多元。張璐觀察到,一些新模型架構在CPU上運行效率更高;Google的TPU發展迅猛;高通、英特爾推出的NPU則在能效方面表現突出。在雲基礎設施層面,長期困擾行業的四大難題——算力成本高、能耗大、邊緣裝置應用難、資料隱私問題——正逐步得到解決。例如,OpenAI的token價格已從每千個30美元大幅降至9美分;被輝達收購的由華人創立的Lepton公司,其技術能顯著降低GPU消耗。能耗方面,新模型與晶片架構不斷最佳化計算效率。和電網在輸電過程中會產生損耗類似,“Communication過程中的能耗實際上是計算本身能耗的百倍以上,這成為最佳化重點,”張璐指出。邊緣AI亦在快速推進,Google等大廠及眾多初創公司正開發參數低於10億、性能卻可比肩GPT-4的端側小模型,未來可在手機等裝置本地運行。資料隱私方面,聯邦學習等技術已在金融、醫療等高監管行業部署,與之配套的監管科技也在同步發展。應用“下沉”在應用層,今年,美國非科技領域如醫療、金融保險、太空科技的AI應用進入快速迭代階段。初創企業層出不窮,大公司則全力衝刺。“GoogleAI部門據稱一週工作七天,有些公司開始實行“002”模式(從零點到零點,每週僅休息兩小時),馬斯克的團隊就更不用說了,常常工作至凌晨。”張璐說。與此同時,美國大公司與初創企業的合作與併購活躍。張璐透露,Fusion Fund今年就有五家公司被大企業收購,其中三家公司成立還不到兩年,價格均超過兩三億美元。就在昨日,Meta宣佈收購通用自主AI智能體公司Manus。這筆高達數十億美元的交易,成為這家科技巨頭成立以來規模第三大的收購案。此項收購意味著,AI正從“工具”加速進化為“行動者”。這種快速整合帶動了資本與人才的流動。張璐特別提到,矽谷超過40%的居民為第一代移民,獨角獸企業中六成創始人也來自移民群體。在AI基礎設施與模型架構的研發中,亞裔(尤其是華裔)、歐洲裔與加拿大裔成為主力;以色列團隊則深耕隱私與安全領域。泡沫終會調整,但技術加速下沉至產業的趨勢不會回頭。中美對比:日益模糊的界限張璐指出,儘管矽谷在晶片、模型、基礎設施層面領先,但美國電網老化嚴重,難以滿足AI的能耗需求。由於私有資本難以進入該國的電網領域,微軟、Google等巨頭不得不轉向自建能源系統。而資源豐富的加拿大今年新設了人工智慧及數字創新部,或將成為北美AI產業重要的能源後方。相比之下,中國在新能源基礎設施、完備的機器人供應鏈以及全民化的技術應用氛圍上已構築起獨特優勢。“在美國很難看到中老年人積極擁抱新技術,許多美國老年人甚至不知什麼是短影片應用。相反,在中國,使用者無論處於任何年齡層,都在快速學習使用新技術。”張璐說。在今年,關於開源模型的討論熱度繼續攀升。中國的DeepSeek、阿里巴巴等公司持續貢獻開源模型,而美國科技公司如OpenAI、Google、Meta因為處於大規模商業化階段,開源意願很有限。中美在AI創新領域的另一項差異體現在創新生態方面,而矽谷獨特的創新生態或許能夠為中國的AI發展提供一些啟示。在美國,大公司與初創企業往往會形成新型共生關係:前者為後者提供試錯場景和併購出口,後者為前者注入創新活力。具體來看,美國企業CTO的主要職能是投資未來技術,其預算用於採購、合作和併購創新項目。一方面這些公司有固定預算;另一方面有合理預期,例如合作的三家初創企業中可能有一家失敗,大公司對此有容錯空間。“這正是矽谷作為創新平台的核心優勢之一。”張璐說。一項共識是,在AI領域,中國在應用層處於領先,而美國在技術層佔據優勢。然而展望未來,這兩條路徑之間的界限正逐漸模糊。接下來的競賽,或許將聚焦於誰能找到那個關鍵的支點——既能支撐技術不斷“上升”取得突破,又能推動應用加速“下沉”實現價值。Fusion Fund創始合夥人張璐。圖片來源:受訪者提供《財富》:在AI落地提速的情況下,你作為投資人是否有很強的緊迫感?張璐:我其實非常興奮。有個說法:當世介面臨巨大變化時,有三種人:一種人創造事情的發生,一種人看著事情發生,還有一種人會問“發生什麼了?”我們應該是第一種人。自2015年至今,我們一直在重點佈局AI企業,如Otter AI、You.com、Constructor A、Wand AI等,均已成長為獨角獸。今年被收購的5家公司都是AI企業,明年還有3家即將IPO的企業。今年的增長曲線尤為陡峭:我們投資的一家B2B AI公司,從去年上半年的50萬美元年收入增長至現在的1.5億美元;另一家公司年收入從零增至2000萬美元,而團隊還不足10人。過去兩三年投資的企業中,70%以上年收入增長超過20倍。這背後是市場對AI的加速擁抱。但不可否認,任何重大的技術創新都會伴隨資本泡沫。我一年前便提出:AI趨勢是真實的,資本泡沫也同樣顯著。一方面,並非所有資本都充分理解AI或抱有合理預期;另一方面,全球經濟動盪下,資本需尋找增長點進行佈局,導致馬太效應。《財富》:泡沫主要集中在哪些領域?張璐:當前一、二級市場均存在泡沫。部分模型公司估值畸高,早期團隊在產品與收入均為零時估值已達數億美元。所以市場必將經歷價格重設,但幅度難以預測。不過,這不會改變AI的整體發展趨勢。矽谷已經歷經了多次週期——2017年、2021年均有類似現象,我們早已習慣泡沫與寒冬的交替。《財富》:這次的泡沫與2000年網際網路泡沫期的“燒錢換增長”有何不同?張璐:不太一樣。2000年前後,許多公司缺乏實際收入,且偏重C端。兩年前,美國AI的主流業務,尤其是科技巨頭們的AI業務,很多也偏重C端。但如今AI初創企業的趨勢轉向了B端。AI的作用主要體現在業務流程自動化(降本)與業務最佳化(增收)。現階段,企業大多通過AI降低成本,因此財報中尚未普遍體現收入增長。但隨著應用深入,效益將逐步顯現。《財富》:你是否有系統方法規避泡沫項目?張璐:從投資角度看,需理性預期AI發展軌跡——它不可能在幾個月內全面滲透產業,而是需要兩三年逐步落地。作為早期投資人,我們對估值保持敏感,如果項目估值過高,我們選擇不投。我們相信企業要遵循自然發展規律,在不同階段匹配相應估值。其實市場已經顯現了早期訊號:許多公司在首輪融資時憑藉願景獲得了高估值,但進入A輪、B輪後,投資方會嚴格考察收入資料及其質量——是來自B端還是C端?客戶是中小企業還是大企業?訂單是否可以全公司推廣而非僅限研發部門使用?若未能通過驗證,公司將面臨融資困難與估值調整。這十年來,我們只投To B項目,涵蓋企業級AI、工業自動化與醫療AI等。我們會深入分析訂單質量:是多年合約還是試用協議?預算來源是否靈活?考量維度很多。《財富》:你曾表示AI在C端的機會多被大公司佔據,未來五年,是否會出現能打破大公司壟斷的C端AI產品?張璐:比較難。ChatGPT雖是C端產品,也面臨Google的強力競爭。C端創業的核心難點在於資料。模型本身已難構成壁壘,因為多數公司能基於開源模型或API最佳化模型。關鍵在於能否獲取高品質資料並建構資料庫。然而,高品質的C端資料集中於Google、Meta、蘋果等巨頭手中,初創企業難以企及,且資料質量直接決定模型最佳化成本與應用成本。C端領域,如文生圖、文生視訊應用,一旦Google、Apple等實力雄厚的企業介入,小企業便舉步維艱。因此,C端創業需聚焦差異化資料與個性化體驗。當前AI投資與應用還是以B端為主。B端的產業資料還未被大科技公司壟斷,初創企業可以通過和產業企業深度合作獲取產業資料,進行私有化部署與行業合作獲取。例如,許多醫療、金融等領域客戶不願將資料上傳雲端,這就為初創企業提供了機會。《財富》:這是否意味著,無論中美,理性的AI創業都應聚焦B端?張璐:至少在美國,機會主要集中在B端。如今許多投資者轉向此領域,而我們深耕B端十年,已建立了先發優勢。聚焦B端的另一個原因在於,美國大企業勇於嘗試新技術,推進速度較快。而美國C端使用者(除東西海岸)對新事物接受較慢。美國C端的創新,大部分依靠年輕一代傳播,很難看到中老年人積極擁抱新技術,許多美國老年人甚至不知什麼是短影片應用。相反,在中國,使用者無論處於任何年齡層,都在快速學習使用新技術。《財富》:我們注意到在美國,初創科技公司有一項優勢:大公司願意與之合作。這種生態背後的邏輯是什麼?張璐:這正是矽谷作為創新平台的核心優勢之一。美國企業CTO的主要職能是投資未來技術,其預算用於採購、合作和併購創新項目。一方面這些公司有固定預算;另一方面有合理預期,例如合作的三家初創企業中可能有一家失敗,大公司對此有容錯空間。活躍的併購市場是創業者選擇矽谷的另一原因。在其他地區,10多人的團隊很難在收入僅數千萬美元時獲得數億美元收購,但在矽谷卻屢見不鮮。這種快速的資金流動與商業變現構成了美國獨特的商業環境。為促進對接,我們於2018年創立了CXO社群網路。目前,網路涵蓋45家全球千強企業的CTO,每季度聚會一次。這些CTO常在董事會開會前諮詢外部技術趨勢,我們為其推薦企業並促成訂單。至今,該網路已經為被投企業帶來超過1.5億美元的訂單與戰略合作。《財富》:一些大基金也有類似網路,你們的CXO社群有何不同?張璐:這些大基金的網路可能覆蓋CEO等多類人群。我們專注B2B與技術驅動型項目,因此CTO社群的精準度與契合度更高。在競爭優質項目時,這一網路極具優勢。此外,在談判估值時,我們不僅能為創始人提供訂單,還能幫助他們獲取政府補貼等不佔股的非稀釋性資源,從而以更合理的估值完成投資。這種生態建設是長期工程,對雙方均極具價值。《財富》:我們觀察到AI與機器人技術正滲透至太空經濟的多個層面。在可回收火箭實現成本大幅降低後,太空科技的下一個“破壞性創新”可能出現在哪些環節?張璐:我們曾經成功投資SpaceX,目前也在重點佈局太空科技。這個領域正處爆發前夜。受益於AI與機器人技術的發展,SpaceX已將單次發射成本從數十億美元降至不到一億美元,未來還會很快降至千萬美元級。屆時,單顆衛星發射成本或僅數萬美元,推動衛星資料應用普及。我們投資的一家公司從事衛星交通管理與資料交易。隨著衛星增多,碰撞風險上升,可以通過AI掌握軌道資訊並進行快速調節;此外,若需要特定地區(如芝加哥或洛杉磯)的天氣資料而自身無衛星,該公司可以幫助你低成本獲取。這打破了衛星資料僅限特定階層使用的認知。這家公司商業模式很簡單,但收入已達數千萬美元。我們投的另一家公司開發全自動化機器人系統,這些機器人可在月球提取水並分解為氫氧,作為太空燃料補給,有效降低發射負載。如果由人類在太空從事此類工作,成本極高,但機器人則不同。我相信AI和機器人將快速推進太空經濟發展。今年是醫療大年,AI也在加速該領域發展。我一直關注腦部疾病,如帕金森、阿爾茨海默症、抑鬱症、躁鬱症等。今年腦疾病領域湧現許多AI相關技術,不只針對診斷,還涉及治療。我們投資了兩家公司,一家做糖尿病垂直領域的小模型,另一家做細胞療法的基礎模型。這些領域創新蓬勃,但公眾注意力仍過多集中於大型AI公司的發佈。《財富》:除了太空科技,AI Agent也被認為處於爆發前夜。如果請你預測AI Agent領域的第一個真正殺手級應用,會是什麼?張璐:程式碼智能體(Coding Agent)已近乎殺手級應用。目前多數科技公司80%的程式碼由AI生成,我自己也在用。智能體的核心能力是處理複雜任務,並自主選擇工具。現在許多公司想做“通用智能體”,即什麼都能處理的智能體,我覺得難度較大。也有一些公司專注特定應用場景的智能體,已開始落地,且商業化不錯,主要應用於To B場景。智能體的未來明確,但當前技術尚未達到期待,仍在發展。不過進度不會太慢,可能再有一年時間就差不多了。我們投資了多家智能體基礎設施公司,專注於作業系統、成本最佳化與幻覺消除。一旦基礎穩固,應用層將快速湧現。《財富》:請分享:你今年最滿意的投資項目;一個決策週期長、令你糾結的項目;以及最終放棄的一個機會。張璐:最滿意的項目是一家賦予AI長期記憶的模型公司。現有AI只有短期記憶,而該公司的視訊模型可分析視訊內容。例如,將採訪視訊輸入,它能給出精準總結,甚至包括衣著顏色等細節。由於對視訊數量無限制(僅限單個視訊時長),可以輸入大量視訊,由其長期記憶給出更智能的分析。目前主要應用於To B場景,如機器人工業安全。決策週期最長的是一個醫療項目——利用小膠質細胞治療帕金森症(目標不是緩解,而是治療)。我們經過幾個月的詳細盡調,最終決定投資。投時估值還比較低,幸運的是,投後一週,《自然》和《科學》連續發表多篇論文驗證該方向,公司隨後獲得美國國立衛生研究院(NIH)不佔股的政府補貼資金。該技術也運用了AI,因為需用AI才能實現個性化小膠質細胞的生成。腦部疾病治療的特點在於標準化治療非常難,需要個性化方案。放棄的項目多半因估值過高。我們追求高回報倍數,若最佳情景下僅能獲十倍收益,便會選擇放棄。《財富》:如今評估AI公司能否“跑出來”,多久可見分曉?張璐:大概兩年。優質公司增長極快,兩年便能判斷其潛力。《財富》:在AI創業“求快”趨勢下,你如何平衡短期回報與長期價值創造?張璐:我們始終看重長期回報。早期投資可跨週期,目標仍是培育價值數十億、數百億美元的企業。基金需分散風險,比如我們投資25-30家公司,其中有七家是核心,其他表現一般的企業可能通過收併購退出。通過這種方式我們對風險做了分層。當然,我們不願公司過早被收購(如被輝達收購的多家企業),雖然回報可觀,但難免遺憾。我們投資的初心是參與創新浪潮,挖掘頂尖企業,尤其是有潛力成為垂直領域領頭羊的企業。《財富》:在做投資決策時,你對市場空間、團隊能力、技術壁壘、商業模式等要素的重要性是如何排序的?張璐:我們最看重市場——規模要足夠大,且為增量市場;市場時機甚至優先於團隊評估,因為英雄常由時勢造就。如果大企業CTO透露,今年預算會優先花在某個方向,這就是市場時機的明確訊號。其次看團隊,我們尤其關注“創始人-產品-市場”契合度。年輕技術背景的創始人適合基礎設施項目,可能擁有新技術或模型架構想法;而連續創業者更擅獲取行業資料與推動商業化。團隊的技術需“更好、更快、更省”。成本是AI公司的關鍵競爭要素。我們看好Google,也因其憑藉全端優勢(自研TPU、模型、雲、資料)能實現最低成本。蘋果雖在AI方面的佈局稍遲,但因掌控智慧型手機這一資料入口與應用載體,後發優勢還是存在的。AI搭載的智能載體目前主要是手機,未來可能是眼鏡,但眼鏡仍需繫結手機。《財富》:你對腦機介面這一熱門領域有何佈局?張璐:2015年我就投資了腦機介面公司Paradromics(斯坦福團隊,侵入式,植入納米纖維機器人),其針對腦損傷修復,已進入臨床實驗階段。我是該公司第一個投資人,它可能很快成為獨角獸,最近剛拿到沙特新未來城(NEOM)投資基金。另一家是非侵入式公司,聚焦抑鬱症超聲治療,技術雖非侵入式但做得精準。青少年抑鬱症高發可能與社交媒體導致的“資訊繭房”有關。他們在社媒上看到的多是他人美好生活,與現實形成對比。現實是,美國社會也很內卷——高校錄取率驟降,就業市場嚴峻。我們招聘一名辦公室經理,收到了700多份簡歷,甚至包括斯坦福博士生與MBA。但長遠看,年輕人學習能力強,能快速掌握AI工具。反觀中層管理者,很多人既缺乏年輕人學習速度,又未至決策層,職業風險較高。《財富》:總體而言,AI帶來的職業變局會比預期更快嗎?張璐:大產業應用不會瞬間到來,人們還有時間適應。但每個人都應有緊迫感,主動學習使用AI工具。人類最偉大的能力正是工具的使用。AI可能替代部分崗位,但也在創造新機會。例如,公司營運部門因AI增效而裁員三分之一,但銷售團隊業績提升30%後可能擴招。勞動力市場將在不同領域重新組態。未來組織也更趨扁平,資訊流轉更高效。還有一點值得注意。正如微軟CEO薩提亞·納德拉所言,當代領導者要學會管理“人類勞動力與數字勞動力”的混合團隊。《財富》:你提到AI發展的“華彩樂章”才剛剛開始。未來三五年,你最期待看到AI在哪些方面取得突破性進展?衡量這場“交響曲”進入高潮的標誌會是什麼?張璐:標誌包括智能體爆發及各產業AI融合。科技行業僅佔美國GDP不足10%,而醫療、金融、保險等服務業佔比超50%。若這些領域廣泛整合AI,便是華彩樂章。技術層面,Transformer模型(編者註:一種採用自注意力機制的神經網路架構,已成為自然語言處理的基礎技術範式)絕非終點。新架構不斷湧現,晶片設計也將持續創新。但我認為,我們距通用人工智慧(AGI)尚遠。李開復老師對AGI的定義很精準:能完成人類90%的任務,且優於90%的人。照此標準,我們仍有很長一段距離。我認為無需執著追求AGI。各行業可發展各自的垂直應用,在特定場景超越90%的人類就是很大的突破。《財富》:你如何定義個人的“成功”?張璐:成功對我而言,並非成為最大基金,而是成為最頂尖的早期投資機構,並持續擴展影響力。另外,成功應是可持續地達成目標,而非靠運氣投中一家好企業。因此需要形成優秀的投資方法論與生態。這就是為什麼我從2015年起建構CXO、專家、學者、創始人網路,該網路至今仍在創造巨大價值。投資方法論需一以貫之。正如拉里·佩奇二十年前所言:人工智慧會是Google的終極版本。他的長期目標非常明確。我們同樣堅持擅長的投資領域,不盲目跟風熱點。團隊建設也很關鍵。沒有完美的人,但有完美的團隊。我們的合夥人有技術背景與產業經驗,能力互補,形成完美組合。《財富》:對你影響最大的人是誰?張璐:我小時候很喜歡看人物傳記,這讓我看到人生的各種可能性,所以很多傳記裡的人物都影響過我。如果說現在對我影響很大的人,是魯斯·巴德·金斯伯格(美國聯邦最高法院歷史上第二位女性大法官)。她有一種非常篤定的力量。世界上聰明人這麼多,尤其在矽谷,但不一定每個人都有這種力量。我在青少年時期就知道自己想做什麼,成為什麼樣的人,哪怕在很多人看來,我的一些想法有些另類,一些做法選擇了“少有人走的路”。 但我相信,保持篤定、始終如一,再加上全力以赴,幸運自會來臨。(財富中文網)
電子布供需警報拉響!AI算力競賽催生3000億材料市場,中國國產替代加速突圍
高端電子布的產能擴充速度正被市場需求碾壓,一場由AI算力引發的材料革命悄然到來。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位業內上市公司高管如是說。隨著AI伺服器需求爆發式增長,PCB產業鏈上游的高端原材料市場正掀起一波供不應求的漲價潮。石英電子布(Q布)作為AI伺服器提速的關鍵材料,其全球年需求預計已達1100萬米,而台光電子僅一家的備貨計畫就高達上半年月均50-100萬米,下半年進一步提升至150-200萬米。在AI算力硬體競賽的背後,一場關乎材料供應鏈主動權的爭奪戰已經打響。01 行業風向轉變:AI驅動高端電子布需求激增AI正重塑整個PCB產業鏈的價值分配。資料顯示,2025年第一季度全球資料中心乙太網路交換機收入同比激增54.7%。這種增長態勢沿著產業鏈向上傳導,最終作用於高端基材市場。“低端產品還未缺貨,AI相關的缺。”一位產業鏈人士指出。行業的核心矛盾是“低端過剩、高端不足”,這種分化格局使得相關企業業績表現冰火兩重天。以專業生產高性能電子布的宏和科技為例,其今年前三季度淨利潤同比增長近17倍,股價漲幅高達284.79%。高性能電子布的價格也隨需求水漲船高。據披露,低介電一代布價格是普通產品的6倍,二代和Low CTE產品價格仍在持續攀升。全球電子紗巨頭日東紡已在今年6月宣佈自8月1日起旗下玻纖產品價格全面調漲20%。02 技術革新驅動:從普通布到Q布的演進AI算力競賽對硬體傳輸速率提出了更高要求,推動PCB材料從M8向M9升級,其對低介電常數(Low Dk)電子布的需求變得愈發迫切。衡量電子布性能有兩個關鍵指標:介電常數(Dk)和介電損耗(Df)。這兩個數值越低,訊號在電路中傳輸時損失的能量就越少,傳輸速度越快。普通電子布的介電常數在6.0以上,而AI伺服器等高端應用則要求材料的介電常數降到4.6甚至更低。石英纖維布(Q布)作為第三代電子布,以其卓越的性能成為頂級訊號傳輸材料的解決方案。其主要成分是純度超過99.95%的二氧化矽,介電常數可低至3.0以下,介電損耗極小。輝達Rubin架構中,CPX部件(midplane、CPX板、網路卡板)、Rubin Ultra的78層正交背板等關鍵部位已明確將採用Q布。GoogleV8平台也可能考慮類似Rubin CPX的外掛形態以增強推理性能,這部分增量也會使用Q布。03 供應鏈格局生變:國產廠商強勢崛起Q布全球供應鏈高度集中,目前僅旭化成、信越、泰山、菲利華四家能夠供應。其中,大陸兩家企業預計將佔據最大市場份額,其次為旭化成和信越。在巨頭博弈中,國內企業正加速突破技術壁壘。菲利華作為全球僅有的兩家能量產石英纖維的企業之一,已將航空航天級石英纖維技術成功遷移至電子布領域,使其介電常數達到行業領先的2.2-2.3。該公司規劃了5000萬米/年的產能遠景,而當前行業總需求僅為約200萬米/年。菲利華作為全球唯一在石英電子布產業鏈實現從石英砂到織布四個環節全自主可控的企業,具備顯著的垂直一體化優勢。目前全球前20大CCL企業中,已有4家穩定採購菲利華的產品,另有7至8家處於小批次測試階段。中材科技在特種玻纖領域表現突出,其低介電玻纖布已實現量產,石英布也已通過國內外頂尖客戶認證。2025年第一季度,中材科技扣非淨利潤同比激增93.28%,毛利率觸底回升。宏和科技則在超薄、極細等高附加值產品上形成技術優勢,其高性能產品低介電一代、二代和低熱膨脹係數產品供不應求。04 市場前景展望:供需緊張或持續至2027年展望2026年,隨著1.6T速率資料中心交換機起量及輝達Rubin平台發售,AI PCB高頻高速趨勢將進一步明朗,石英電子布有望迎來需求放量元年。據預測,到2027年,僅AI伺服器和網路交換機兩大應用,就將催生出接近3000億元人民幣的特種電子布市場。然而,供給瓶頸依然突出。菲利華預計2026年出貨量可達1000萬米,僅台光一家就將貢獻約40%-50%的份額。 據此測算,僅石英電子布業務就將為菲利華帶來超10億元淨利潤增量。產能擴充面臨多重挑戰。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位行業內部人士坦言。 高端電子布的織布機主要依賴日本進口,裝置交貨周期長,進一步限制了產能擴張。認證壁壘同樣構成一道高牆。客戶認證流程通常需要2-3年時間,包括送樣、小批次試產和批次生產三個階段,輝達、台積電等知名企業對供應商的篩選極為嚴格。基於這些制約因素,業內專家預測,這輪高端電子布缺貨潮可能持續到2026年第三季度,到2027年才會陸續有所緩解。05 投資邏輯與風險:聚焦龍頭企業的訂單與產能在AI驅動PCB材料升級的背景下,投資者應聚焦龍頭企業的訂單和產能情況。對於菲利華而言,其關鍵驗證點在於2025年第四季度台系CCL廠30萬米/月訂單的落地情況,以及輝達的認證進度。隨著訂單爆發和產能躍進,菲利華的業績有望實現顯著增長。中材科技雖然估值安全邊際高,但需要觀察其石英布營收佔比是否能超過5%,以及提價傳導能力。 該公司受益於全球龍頭日東紡的價格上漲20%,已靈活調整定價策略,有望實現價格跟漲。風險方面,投資者需警惕產能過剩和技術替代等潛在風險。 若菲利華的產能擴張導致價格鬆動,或其他企業的認證超預期,市場競爭格局可能生變。此外,AI伺服器出貨量不及預期、輝達GPU產品發售節奏放緩等因素也可能影響行業發展速度。隨著AI算力需求不斷攀升,高端材料市場的供需天平正在傾斜。日本日東紡等巨頭已宣佈漲價20%,台光電子等下游廠商則在為Q布做高強度備貨準備。在可預見的未來兩年內,高端電子布的供應緊張狀況仍將持續。對於那些已突破技術壁壘、具備產能先發優勢的國內企業來說,一個歷史性的發展機遇正在眼前。 (吐故納新溫故知新)
2025最新蔡崇信港大演講對話完整版:中美AI競賽實力對比以及給年輕人在AI時代的建議
11月5日現任阿里巴巴董事長蔡崇信做客香港大學陸佑堂,與香港大學副校長兼商學院副院長鄧希煒教授進行了一場精彩的爐邊談話。談話主要涉及蔡崇信對體育的投資、阿里巴巴的文化、中美AI競賽實力對比、蔡崇信給年輕人在AI時代的建議等。非常精彩!以下為相關對話全文中文翻譯:一、蔡崇信談對體育的投資主持人:首先啊,我從沒見過陸佑堂裡擠過這麼多人。喬(註:此處指蔡崇信),你要知道,這可是香港大學最老牌的講堂了。其實我們當初真該選個更大的場地,畢竟就發了一封活動通知郵件,反響卻又快又熱烈,短短兩小時就有超 1200 人報名。要是再開放兩天報名,我敢說報名人數能突破 10 萬,到時候就得去啟德新體育場館給你辦活動了。不過不管怎樣,歡迎你來到香港大學!特別榮幸能有機會和你對話。今天的話題既應景又宏大,我知道你剛從另一個活動趕過來,所以先從一個你打心底裡在意的話題慢慢切入,那就是體育。大家都知道,你不只是阿里巴巴的董事長,還是布魯克林籃網隊的老闆。而且最近你還帶著球隊去澳門和菲尼克斯太陽隊打了比賽,聽說你們贏了?蔡崇信:我們是一勝一負。主持人:原來如此,我只聽說你們贏的那場。那我的第一個問題,也是台下觀眾特別好奇的:你是從什麼時候開始萌生投資職業體育的想法的?你覺得 NBA 能給中國帶來那些機遇?蔡崇信:唐教授,在回答問題之前,我想先表達最誠摯的謝意。能站在這裡,我感到萬分榮幸。我不是馬雲,但能有機會來交流想法,我很珍惜。當初你們聯絡我時,說這是系列講座,我就提了個想法,不想站在講台上單向授課,更希望用爐邊談話的形式,和大家交流思想,也是為了致敬陳教授。我很期待這次交流,也知道之後會有和現場學生的問答環節,對此我十分期待。謝謝大家!NBA 進入中國已經有很長時間了,早年就常來中國辦賽。2019 年後賽事一度中斷,今年是六年來 NBA 首次派兩支球隊,其中一支就是我旗下的布魯克林籃網隊,來中國地區參賽,最終選定了澳門。NBA 和澳門金沙集團簽了五年合約,未來五年都會在澳門辦賽,而且合約裡也預留了去中國大陸辦賽的可能性。所以我預計,用不了多久,NBA 就能重返中國大陸賽場。從 NBA 的角度看,這個佈局邏輯很清晰:中國大概是全球籃球迷最多的國家,幾乎人人都關注 NBA。為什麼?因為這裡匯聚了世界最頂尖的籃球運動員。NBA 里約 30% 的球員都不是美國人,他們來自世界各地:歐洲、東歐、澳大利亞等等,亞洲球員目前還不多,但我們都希望未來中國籃球能不斷發展,再出一個姚明這樣的 NBA 球星。中國的球迷基礎太龐大了,所以 NBA 重返中國辦賽、讓球員和球迷面對面互動,是完全合理的選擇。而且這麼多年來,NBA 賽事也一直在中國保持轉播,不管是央視還是各大串流媒體平台,都能看到 NBA 比賽。從中國的角度來說,加強和世界的交流同樣重要。把全球體育乃至文化領域的精華引入中國,和國內的球迷、大眾互動,意義重大。這次賽事也得到了國內各界的熱烈歡迎,因為 NBA 的號召力實在太強,兩場比賽辦得非常成功,給球迷們呈現了超高水準的競技對決,其中一場還打到了加時賽。加時賽那場我們輸了,但第二晚的比賽贏了三分。這段經歷特別棒,我對這種體育文化交流也特別有信心。我想強調的是,用體育搭建文化交流的橋樑,這件事的價值無可估量。我在國內的公益事業,很大一部分也和體育相關,把體育納入教育體系就是我的重點投入方向。我有個項目,專門選拔即將升入九年級的初中生,送他們去美國讀四年高中,一方面是讓他們接受籃球專業訓練,更重要的是讓他們去美國接受教育。這某種程度上是復刻了我自己的經歷,我 13 歲就離開台灣,去美國讀寄宿學校,之後又在美國讀了大學。這個項目既能培養中國下一代籃球人才,也能讓這些孩子見識更廣闊的世界。但我覺得最大的受益者其實是美國的高中生們,他們以前只在書本上瞭解中國,沒機會和中國人真正打交道。我們選的都是學業和籃球雙優的孩子,他們融入美國當地社區後,很受大家歡迎。這種民間層面的交流太重要了,只要我有能力、有資源,就會一直支援這個項目。主持人:很棒!那每年能拿到你的獎學金去美國的孩子有多少呢?蔡崇信:選拔標準特別嚴格,競爭也很激烈。所以我們每年只選 6 到 8 個孩子。主持人:原來如此,那可都是真正的佼佼者啊。蔡崇信:沒錯。主持人:我還盼著我 9 歲的兒子能有機會呢,現在看來這難度也太大了。蔡崇信:可以試試嘛,說不定是你沒給孩子機會呢。主持人:哈哈,有道理!蔡崇信:是啊。主持人:你這話太鼓舞人了!我之前還真不知道你的體育事業裡還藏著公益的一面,真心希望你以後能多帶球隊來中國,讓我們見識世界頂級職業籃球的風采。二、阿里巴巴的自我革新主持人:在切入更大的主題之前,我的第二個問題想聊聊阿里巴巴。你應該還記得,2008 年你的好友馬雲曾來過這裡。大家肯定也對 2008 年的阿里印象深刻,但要知道,過去 26 年裡,阿里已經從一家單純的 B2B 電商公司,蛻變成了如今全球頂尖的 “AI + 雲端運算” 科技巨頭。你能不能和我們分享一下,阿里巴巴是如何實現這般顛覆性蛻變的?又是什麼 “獨門秘籍”,讓它每五到十年就能完成一次自我革新、變身成全新業態的公司?蔡崇信:好的,我先簡單回顧下歷史背景。1999 年我加入阿里時,中國人均 GDP 才 800 美元,而現在已經漲到了 13000 美元,這增長幅度是相當驚人的。我總跟朋友說,自己特別幸運,正好趕上了兩大時代紅利的交匯期:一是中國作為製造大國和整體經濟的崛起,二是網際網路的興起和網際網路驅動的經濟增長。站在阿里巴巴的平台上,我得以親眼見證這雙重引擎帶來的發展奇蹟,這種機遇真的可遇不可求。就像你說的,阿里最初只是一個 B2B 網站。當時馬雲的想法很純粹,就是想用網際網路為中國的中小商家、貿易公司和小工廠們創造公平的競爭環境。大家應該還有印象,2001 年中國才加入 WTO,在那之前,國際貿易都得通過國有外貿公司來做。而中國入世後,貿易大門徹底打開,這也成了中國成為全球製造基地的起點。越來越多人開始建廠創業,他們看到了通過網際網路和全球做生意的機會,阿里的 B2B 模式就是在這個背景下誕生的,我們的核心就是幫中小企業做批發貿易。順便提一句,阿里最早的網站是全英文的,畢竟是面向全球採購商,是個外向型平台。之後我們從 B2B 電商拓展到了消費電商領域,也就是如今國內最大的消費購物平台淘寶。同時,因為當時買賣雙方互不信任的痛點,買家不願先付款、賣家不願先發貨,我們又順勢推出了支付寶,最初其實就是個第三方託管系統,專門解決交易信任問題。再往後,我們又逐步切入了物流等多個領域。你問到 “獨門秘籍”,我覺得核心很簡單:一家優秀的公司,永遠是跟著使用者需求走的。我們所有業務的拓展都是順勢而為,完全圍繞使用者的真實訴求來推進。我也想給台下的同學們提個建議:未來如果你們創業,一定要優先選擇內生式增長,而不是依賴併購。當然我們也做過一些收購,有成功的案例,也有慘敗的教訓。但內生增長始終是首選,因為這種模式是靠自己的團隊一步步搭建起來的,團隊成員也最懂阿里的企業文化和創新基因,這也是我們能持續迭代的關鍵。至於雲端運算業務,我們最初佈局也不是因為覺得這個賽道前景好才跟風,而是純粹為了滿足自身需求。16 年前,雲端運算還沒成為行業熱點,當時我們的消費平台已經在處理海量交易資料,我們的 CTO 就跟我們說:如果一直依賴第三方的軟硬體,比如戴爾、IBM 的伺服器,EMC 的儲存裝置,Oracle 的資料庫軟體,未來我們賺的利潤早晚都要拱手讓給這些技術供應商。所以我們做雲端運算,本質是為了實現技術自主可控,這後來也成了一個國家層面的發展議題。當時我們組建了專門團隊,研發能跨資料中心、跨多台電腦運行的作業系統,畢竟只有實現平行計算,才能處理我們手裡的海量資料。這就是阿里雲的起源,我們先自己 “吃螃蟹”,把這項技術用在了自家業務上,後來發現技術足夠成熟,才決定開放給第三方客戶,正式踏入雲端運算領域。三、宏觀經濟和十五五規劃主持人:接下來我想回到開源戰略的話題,上周我們其實聊過這個。不過今天的主題格局更大、也更深,顯然有著重要意義。我先簡單說說為什麼選這個主題。上周碰面時,喬(蔡崇信)你跟我說的第一句話就是 “我不是什麼厲害的貿易專家或宏觀經濟學家”。可你明明是耶魯經濟學專業畢業的,我當時還納悶這怎麼說得通。但很快你就說服了我,你其實特別睿智,也特別懂經濟,只是算不上傳統意義上的宏觀經濟學家罷了。後來我也跟你提過,陳坤耀教授是極具影響力的經濟學家,他深耕香港教育領域,培養了好幾代優秀學子,這些人後來不管是在私營領域還是政府部門,都取得了斐然成就。所以我當時就說,我們能調整主題的空間不大,必須緊扣中國經濟增長這個核心。考慮到你在科技領域投資頗豐,而且阿里巴巴在科技方面成績亮眼,我們就加了 “技術驅動力” 這個維度。那為什麼要聚焦 “十年” 這個時間節點呢?因為到 2035 年,中國共產黨和中國政府設定的目標是讓中國邁入中等發達國家行列。具體是什麼概念我其實也不完全清楚,但可以想像的是,屆時中國人均 GDP 需要達到 3 萬美元左右,這是有實現可能的。有意思的是,就在我們上周碰面到今天這段時間裡,中國國務院總理李強在上海發表講話,提出到 2030 年,也就是五年後,中國 GDP 總量要達到 24 兆美元。這意味著什麼?目前中國 GDP 大概是 20 兆美元,要增長到 24 兆美元,我能猜到你這會兒已經在心裡算起來了。這相當於需要實現年均 5% 左右的名義 GDP 增速,這並非天方夜譚。如果能保持 4% 的實際 GDP 增長,再加上 1% 到 2% 的通膨率,五年內就能達成目標,完全具備可行性。但要實現 4% 的實際 GDP 增長,就離不開大量創新,而且這些創新還得轉化為生產力的提升。所以我想向你提一個核心問題:在中國的國家級科技規劃中,你認為那些關鍵或具有影響力的內容,能確保中國在未來五年乃至十年內實現這樣的經濟增長目標?蔡崇信:好的,這確實是個非常貼合當下的問題。中共中央剛發佈了 “十五五” 規劃,我猜在座有些人可能完整讀過全文,我自己看了規劃摘要。這份五年規劃裡,有兩個核心要點。第一,中國希望繼續鞏固製造業強國的地位,規劃裡明確強調了要重視作為實體經濟重要組成的製造業,這是國家領導層的清晰表態,也是我們未來的發展方向。對比全球其他國家,中國的消費佔 GDP 比重其實很低,還不到 40%,而美國的消費佔比高達 70%。這說明中國經濟的核心還是在生產端,一定程度上還要依靠把產品出口到全球。我相信不管是現在,還是未來十年、二十年,中國都會持續作為全球製造基地,為世界供應各類商品。第二,規劃提出要實現科技自立自強。我認為這既是國家領導層的前瞻性佈局,也是應對當下地緣政治局勢的必然選擇 ,畢竟美國和部分歐洲國家一直在對中國實施關鍵技術封鎖。所以中國深知必須自主研發核心技術,而且目前已經在這條路上取得了不錯的進展。再回到第一個目標,也就是鞏固製造業根基。回顧中國的致富之路,從人均 GDP 800 美元到如今的 13000 美元,未來十年還要衝擊 30000 美元,靠的就是生產製造、靠的是把產品賣到全世界來創造財富。當然,外界對此有不少批評聲音,說中國存在 “產能過剩”,還把過剩產能出口到全球,彷彿這是什麼十惡不赦的事。但仔細想想,當年德國汽車行業大量出口汽車時,有人指責他們產能過剩嗎?其實從定義上來說,“產能過剩” 只是指國內市場消化不了的產能,只能通過出口來釋放,可 “過剩” 這個詞卻被貼上了負面標籤,這其實很不應該。因為一個國家要實現富裕,本質就是靠生產商品、從全球賺取財富,進而提高本國國民的收入水平。我堅信,只要繼續堅持做全球製造中心,而且向高端製造業轉型,不再侷限於生產鞋子、T 恤這類低端產品,中國經濟就能持續增長,老百姓的財富和可支配收入也會不斷增加,消費市場自然會慢慢壯大。就拿阿里巴巴平台的資料來說,現在有大約 5600 萬人每年在淘寶上的消費超過 6000 美元,這個數字遠超中國居民的平均可支配收入,足以說明我們的消費市場已經有了相當規模,未來只會越來越大。不過國家領導層很清楚,健康的經濟增長和財富創造,根基還是在於強大的製造業,而且是高端製造業。如今中國在電動汽車、電池、太陽能面板等全球急需的產品製造領域,已經走在了世界前列。四、中美AI競賽實力對比主持人:現在所有人都在聊人工智慧,中國顯然也在這一領域投入了大量資源,而且 DeepSeek 的亮眼表現確實震撼了全球。我想再順著中國國家科技議程的話題追問一下,之前我問過你阿里巴巴實現蛻變的 “獨門秘籍”,現在想問問中國科技政策的 “制勝法寶” 是什麼。中國到底是怎麼做到後來居上的?要知道,過去國外企業和國家對中國實施了不少出口管制,十年前的中國還只在做簡單的製造業代工。可如今就像你說的,中國已經邁入高端製造領域,人工智慧各方面的實力也具備了競爭力,甚至在部分技術領先性上開始挑戰美國。我能不能把問題再聚焦一點,麻煩你著重講講人工智慧領域,中國有那些政策或者 “獨門優勢”,推動了該領域實現這樣的高速發展?蔡崇信:首先,說到國家層面的政策,中國政府已經明確了重點投資領域,比如半導體、半導體製造工藝,還有半導體生產裝置這類核心領域,這些佈局當然都很有必要。不過我個人覺得特別有意思、也格外關注的,是幾個月前國務院出台的一份人工智慧專項規劃。中國人做事向來務實,目標導向也很強,這份規劃裡就直接定下了明確目標:到 2030 年,也就是五年後,要實現人工智慧代理和相關裝置 90% 的滲透率。政府其實是給出了一個清晰的目標,然後把具體落地的空間交給了市場,不管是國企還是民營企業家,都可以去探索如何實現 AI 在中國的大規模普及。我認為這是一項非常高明的政策。畢竟現在全球都在參與所謂的 “AI 競賽”,也就是中美之間的 AI 角逐。但說到底,評判競賽勝負的標準,從來不是看大語言模型的技術有多尖端,而是要看 AI 的實際普及率。有越多的人用上 AI,整個社會才能從中獲得越大的收益。所以中國的整體思路是先推動 AI 的規模化落地,這無疑是一步好棋。主持人:我記得上周和你聊過中國 AI 生態的獨特性,當時提到了人才儲備、基礎設施、中國保有完整高端製造體系(而很多發達國家如今已不具備這一優勢),還有高效的能源生產能力這些點。能不能請你給現場觀眾具體講講,中國要成為 AI 超級大國,具備那些獨特的競爭優勢?蔡崇信:好的。現在美國人評判 AI 競賽勝負的標準,其實很單一,就是只看大語言模型的技術水平,今天是 OpenAI 領先,明天可能就換成 Anthropic。不過順便提一句,阿里的通義千問模型剛在一個為期兩周的加密貨幣和股票交易競賽裡拿了冠軍,當時參賽的有 10 個不同模型,涵蓋了美國和中國的主流產品,最終阿里模型奪冠,DeepSeek 位居第二。說起來真的很佩服 DeepSeek,他們就在杭州,和我們是鄰居,確實做出了非常出色的成果。所以我們並不認同美國人對 AI 競賽的評判邏輯,我們更看重中國在 AI 全產業鏈上的綜合優勢,先從能源說起。中國在電力生產上有顯著優勢,這得益於 15 年前政府的前瞻性佈局,當時就開始大規模投資能源輸送網路。畢竟中國的電力大多在北方生產,卻需要輸送到用電需求更大的南方;而且清潔能源的發電場地(比如有光照、風能、水能的地方),往往和用電集中區域不重合,這就需要強大的輸電網路來調配。中國有兩大電網,也就是國家電網和南方電網,它們每年的資本開支能達到 900 億美元,而美國全國的電網年投資只有 300 億美元,在電力輸送領域的投入遠遠不足。過去 15 年中國一直堅持在這方面發力,結果就是中國的電力裝機容量達到了美國的 2.6 倍,而且每年新增的電力裝機容量,更是美國的 9 倍之多,電力產能的增長速度遠超美國。更關鍵的是,這些新增產能裡大部分都是太陽能這類清潔能源,最終帶來的直接好處是,中國的電價每千瓦時比美國便宜約 40%。這對 AI 發展來說是巨大的能源優勢,畢竟運行 GPU、訓練大語言模型、做推理運算,都要消耗海量電力。機器和人腦不一樣,機器運轉起來特別耗電,而人腦的能耗卻極低,所以能源成本對 AI 產業的影響極大。再看資料中心的建設成本,在中國建資料中心,不算晶片和 GPU 的話,成本要比美國低 60%。至於模型研發層面,我認為中國的 AI 模型和美國的差距其實已經不大了,這背後是有原因的:中國的工程師儲備非常充足,每年培養的理工科(STEM)學生數量全球第一。可能有人覺得 AI 研發和模型訓練是高精尖的科研工作,但其實其中很大一部分是工程化的實操任務:需要搭建高效的系統,來支撐數千億甚至上兆參數模型的訓練。如果系統效率跟不上,會耗費巨量的 GPU 資源。而中國恰恰因為 GPU 資源相對緊缺,反而倒逼出了 “窮則思變” 的優勢:資源有限時,就必須在系統層面進行創新,這正是中國的強項,畢竟我們有大量的工程人才。還有個很有意思的現象:全球範圍內,近一半的 AI 科學家和研究人員,都有中國高校的學位背景。不管他們是在美國企業、中國企業,還是全球其他地方工作,都能看到這一群體的身影。這意味著你走進任何一家美國科技公司,都能發現很多華裔 AI 從業者。我最近還看到一個社交媒體帖子,是一位在 Meta(臉書母公司)工作的非華裔員工吐槽,說他所在的 AI 團隊裡,所有人都在說中文、用中文交流想法,他完全聽不懂,只能乾著急。主持人:不過他們既然能做出這麼厲害的 AI 工具,按理說應該能實現中文到各種語言的即時翻譯才對啊。蔡崇信:話是這麼說,但你想啊,在茶水間閒聊、在食堂吃飯時的那種隨口交流,那能靠翻譯工具把所有內容都精準捕捉到,對吧?這其實意味著,現在全球範圍內的 AI 領域,有大量的想法交流和觀點碰撞都是用中文進行的。這還是頭一回,中文成了一種優勢。過去,中文對中國企業出海來說其實是個短板。比如阿里巴巴去義大利、日本或者美國開辦公室,當地招聘的員工都不會說中文,只能用英語溝通,而我們杭州總部的同事就得用第二語言和他們對接,這肯定不是最理想的狀態,也成了中國企業拓展海外市場的一大阻礙。但現在不一樣了,懂中文在 AI 圈反而成了優勢,這事兒真的特別有意思。我剛才其實已經列舉了中國在 AI 領域的不少優勢,不過我覺得最大的優勢,還是中國企業對待大語言模型的思路,也就是開源策略,這會大大加速 AI 的普及,真正實現 AI 的規模化落地,讓更廣泛的社會群體從中受益。開源之所以這麼重要,核心原因就是它成本極低,甚至可以免費使用。阿里巴巴就推出了多款開源大模型,而且已經上架到美國乃至全球的各類開源市場。任何人都能直接下載我們的模型,部署到自己的基礎設施上,甚至是普通筆記型電腦裡,零成本就能開啟 AI 應用。這種開源模式能有力推動 AI 的普及,反觀美國,要是想用上 AI,得給 OpenAI 這類公司支付高額費用。所以我認為,這才是中國最終的核心優勢 ——AI 競賽的贏家,從來不是擁有最頂尖模型的那一方,而是能把 AI 最好地應用到各行各業、融入日常生活的一方,而這一點,中國肯定能做到。主持人:那想再追問一下,中國 AI 模型為何會側重開源,而美國的 AI 模式卻更偏向私有閉源,還要按市場價售賣資料和模型?這是不同國家的企業競爭模式存在本質差異,還是說有政府層面的激勵政策,促使中國企業更願意開放自身資源?蔡崇信:我給你舉個例子你就明白了。比如中東國家,就拿沙烏地阿拉伯來說,他們肯定也想發展 AI,而且希望能擁有自主可控的 AI 技術,也就是所謂的 “主權 AI”。但問題是,世界上絕大多數國家其實都沒有足夠的人才去獨立研發自己的主權 AI。所以當他們面臨選擇 —— 是通過 API 呼叫 OpenAI 的閉源模型,還是直接拿阿里巴巴的開源模型在此基礎上做二次開發時,從成本和效益的角度來看,顯然開源是更優解。除此之外,還有一個關鍵因素就是資料隱私。如果用 OpenAI 的服務,你在模型上做進一步訓練時,得把自己的資料輸入到對方的 API 裡,這就像一個 “黑箱”,你根本不知道這些資料會流向那裡、會被如何處理。但如果選擇開源 AI,企業和機構就能更好地掌控資料隱私,還能搭建自己的私有雲來儲存資料。所以放眼全球,不管是政府這類公共機構,還是私營企業,在選擇 AI 技術路線時,出於成本和資料隱私的雙重考量,都會傾向於發展開源 AI,或是基於開源 AI 進行二次開發。五、阿里巴巴的AI開源策略主持人:這話確實有道理,不過就拿阿里巴巴來說,你們這麼大方地讓大家免費使用開源 AI,到底靠什麼賺錢呢?肯定是在其他地方有盈利管道吧?蔡崇信:你這個問題問得特別好。直接答案是,我們並不靠 AI 本身賺錢。但別急,要知道我們還營運著雲端運算業務。畢竟運行 AI 模型,得有對應的雲基礎設施才行,而且這種基礎設施的技術門檻極高,不是隨便那家公司雇幾個工程師就能搭建起來的。它既需要 AI 基礎設施的專業維運能力,還得有足夠的規模效應 ,這行業本身就是拼規模的。這就像我們普通人不會自己建酒店一樣,出門都是直接訂酒店入住,因為酒店營運商有專業的營運能力。雲端運算和資料中心業務也是這個道理,核心就是把基礎設施資源整合起來,當客戶數量足夠多時,就能形成營運槓桿,攤薄服務單個客戶的單位成本。所以我們的盈利邏輯是這樣的:如果使用者要運行 AI 模型,剛好又選擇了阿里雲,我們就能為其提供一整套配套產品,從儲存、資料管理、安全防護、網路服務,到我其實也不太懂的容器技術(姑且先這麼說),應有盡有。這些一站式產品能幫使用者在我們的基礎設施上更高效地運行 AI,我們也正是通過這樣的雲端運算服務來實現商業化變現的。六、AI 時代應該的技能和專業方向選擇主持人:好的,在切換到問答環節前,我先問最後一個問題。對了,先說明一下,現場來了超多學生,其實 80% 的觀眾都是學生,從本科生到博士生都有。喬(蔡崇信)之前跟我說,看到這麼多學生他特別興奮,因為他平時打交道的多是政府官員、商界人士和投資人,學生群體反而不常接觸,所以他也很樂意給大家一些建議。那你覺得,年輕人要為 AI 時代做準備,應該掌握那些技能?或者說該選擇什麼專業方向深耕?蔡崇信:我覺得這其實是兩個不同的問題,一個是技能儲備,一個是專業領域,二者略有區別。先說說技能層面,我始終認為有兩點最關鍵:一是學會如何獲取知識,二是建立分析資訊的框架,最終能形成自己的判斷。而要提升這些能力,沒有什麼一蹴而就的辦法,得靠日積月累的訓練。比如我一直建議大家學點程式語言,這就像學一門外語 ,學西班牙語能和西班牙人交流,學法語能和法國人溝通,而學電腦語言,是為了和機器對話,是在給機器下達指令。程式語言背後藏著很強的邏輯,怎麼建構合理的指令讓機器完成任務,這個過程本身就是一種思維訓練。可能有人會說,現在有很多可視化程式設計工具,根本不用專門學程式碼,直接用自然語言就能操作機器。但我想說,學程式設計的目的不是為了實操機器,而是為了經歷這個思維錘煉的過程。我自己是法律和金融出身,金融領域裡大家常用電子表格。我也會跟家裡孩子說,一定要學好電子表格 —— 在表格里搭建公式並讓它正常運轉,輸入一個資料就能自動算出結果,這是很精妙的事。能熟練用好電子表格,本質上也是在鍛鍊邏輯思維。所以技能層面,核心就是學會獲取知識、學會分析思考,還有一項重要能力是提出正確的問題。再說說專業領域,我一直跟年輕人推薦兩個方向。第一個是資料科學,這其實就是以前說的統計學,只是換了個更時髦的叫法。未來會迎來資料大爆炸,世界數位化程度越高,個人和企業掌握的資料就越多,學會管理和分析資料會變得至關重要。掌握了資料相關的技能後,還得關注 “人” 的層面,所以心理學也很值得學。心理學和生物學能幫我們理解人腦的運作機制,我始終覺得人腦是目前能耗最低、效率最高的 “機器”,搞懂它的工作原理意義重大。另外我還想到一點,現在很多孩子沒選電腦科學,反而去學材料科學,這在未來會很有前景。當下世界是由數字(位元)主導的,但未來能讓數字傳輸更高效的,會是物理實體(原子)。搞懂原子層面的運作規律會越來越重要,比如半導體領域就需要材料科學的支撐,未來這個領域會有大量創新,所以材料科學會是個很有潛力的專業。主持人:說得真好。總結下來就是材料科學、認知科學、資料科學這幾個方向。而且我們還是得學程式設計,不是因為工作剛需,而是為了培養邏輯思維,搞明白 AI 到底在對我們做什麼。這些建議真的特別實用。七、問答環節主持人:喬(蔡崇信)的日程其實特別滿,而且我知道今天現場來了一千多人。所以我們今天做了個特別安排:本來是有二維碼讓大家掃碼提問的,但現在可能來不及了,因為我已經收到了 10 個問題。大家也不用走到麥克風前,現場其實也沒設移動麥。我會挑幾個優質問題來問,有些問題可能會有點有意思,要是問到你不想答的,可別怪我,你要是覺得不方便,不回答也沒關係,不過我相信你肯定有應對的辦法。先插個小推廣:喬,你知道嗎?我們港大其實和阿里雲合作開了一門課,不是學位項目哈,是一門課程,但修完能拿學分,算入學位考核的。特別感謝阿里雲的支援!有位修這門課的學生提了個問題:阿里巴巴集團一直是各行業變革的推動者,你覺得雲端運算接下來會驅動那一場重大變革,進而影響大眾行為和商業格局?蔡崇信:在我們看來,雲端運算就像水電煤一樣,是一種公共基礎設施,支撐著各類活動和技術的運轉。而云計算領域目前最火的方向,顯然是人工智慧。因為不管是 AI 模型的訓練,還是 AI 的實際應用、推理運算,都離不開雲端運算的支撐。我覺得 AI 領域下一個重大變革,會發生在人們不再只把 AI 當成工具,而是當作朋友的時候。現在的 AI 更多還是工具屬性,大家都想用它提高個人和公司的效率,比如 AI 已經能幫我們寫程式碼,讓企業不用雇那麼多軟體工程師了。但什麼時候 AI 能變成你的夥伴呢?等大多數人都把 AI 當成另一個 “人” 看待時,才會真正顛覆整個世界,改變人們的行為模式。有時候想想還挺讓人覺得後怕的,但我確實能看到這種趨勢正在發生。主持人:我也覺得這一天會來的。蔡崇信:或者說等到通用人工智慧(AGI)實現的時候。傳統的圖靈測試是說,如果 AI 的行為和反應讓你分不清它是人還是機器,就算通過測試。當你和 AI 互動、來回交流時,它給出的回應就像朋友一樣自然,那時候既讓人興奮,也難免有點不安。主持人:好的,第二個問題特別有意思,其實我本來也想問,但因為主題是陳教授牽頭的委員會定的,就沒機會提。這是個職業規劃相關的問題:很多學生,還有像我這樣的職場中年人,都在糾結是創業,還是加入初創公司。聽說 90 年代末你在香港有份很不錯的工作,後來卻跑去杭州見了你的合夥人馬雲,還加入了當時前途未卜的阿里,放棄了高薪。是什麼讓你做了這個決定?另外,對於想加入初創公司的人來說,什麼時候是合適的時機?又該重點考量那些因素?蔡崇信:不管是年輕人,還是我這種 “老年人”,做決策時其實都在權衡風險和收益。如果事情沒成,你得承擔風險;但要是成了,能獲得的回報又是什麼?這雖然沒法完全用數學公式量化,但大體能估算出最壞結果和最好前景。我當年加入阿里時,就覺得下行風險特別小,為什麼?因為我有不錯的大學學歷,還讀了法學院,就算阿里失敗了,我大不了回去當律師,退路是有的。可上行空間卻大到沒法想像,幾乎是無限的。這其實是一種風險收益不對稱的局面,學金融的同學應該懂,就像看漲期權一樣。所以這個決定對我來說其實很容易,核心就是看中了這種不對等的風險回報比。而且這種好機會可遇不可求,刻意去找反而找不到。所以我想對現場年輕人說,最重要的是做好準備,機會來的時候才能抓得住,畢竟你永遠不知道它會在什麼時候出現。主持人:這個問題是關於 AI 會不會成為下一個網際網路泡沫的。大家都經歷過 2000 年初網際網路泡沫的興起和破裂,而且你要是關注過 “七大科技巨頭” 的股價就知道,它們最近漲得特別瘋狂,我就特別後悔太早賣掉了輝達的股票。當然我們不是來要炒股建議的,就是想問問你,你覺得 AI 領域存在泡沫嗎?如果不存在,你覺得這次和當年的網際網路泡沫有什麼本質區別?蔡崇信:其實 “泡沫” 分兩種,一種是真實的行業泡沫,另一種是金融市場層面的泡沫。金融市場有沒有泡沫我不好說,畢竟股票估值這事兒更像一門藝術,  雖然有成熟的估值理論,但你可以因為看好某家公司的高增速,就給它 50 倍的市盈率,這合理嗎?誰也說不準。AI 相關的股市可能確實存在泡沫,但 AI 這個技術浪潮本身是真實存在的。現在大家搭建的各類 AI 基礎設施、投入到模型研發的所有資源,都不會白費,因為這是實實在在的技術變革。就像 2000 年 3 月前後,網際網路泡沫破裂了,但那只是股市的泡沫,網際網路技術本身不僅沒消失,反而發展得越來越壯大,對吧?所以技術本身是造不成泡沫的。主持人:這個問題特別有意思,我們的學生真的很聰明,問的問題比我有水平多了。接下來是關於管理風格的:你既投資了職業體育,不知道你在管理籃球隊、長曲棍球隊上投入了多少精力,同時還得管理科技公司。管理這兩類截然不同的機構,有那些共通之處,又有那些差異?搭建團隊、塑造企業文化這件事,到底有多重要?這算是個比較宏觀的領導力和管理問題,畢竟你同時涉足了兩個差異極大的領域。蔡崇信:我剛買下布魯克林籃網隊的時候,很多人都主動來給我提建議,說職業體育和普通生意完全是兩碼事。他們覺得我懂企業管理,但職業體育圈裡都是明星球員,得用不一樣的方式去管理,還說我根本不懂這行的門道,應該把球隊交給業內人去管。可我後來發現,那些所謂的體育圈 “行家” 其實啥也不懂,他們就只靠人脈吃飯,通訊錄裡存了一堆人的聯絡方式,知道該給誰打電話,和球員經紀人有點交情而已。現在我反而覺得,在優質管理這件事上,體育圈和商界的理念正在趨同。首先第一條,就是得選對人。我在籃網隊就有個很靠譜的總經理,專門負責籃球業務,比如簽球員、做交易、選新秀這些事;還有個 CEO 管商業類股,負責賣門票、拉贊助、做行銷、拓展球迷群體,和企業管理的邏輯一模一樣。說白了,不管是做企業還是管球隊,都得靠團隊,得找那些比你更專業、更有能力、更聰明的人。不然的話,你自己就會變成組織發展的瓶頸。我本身不是籃球專家,更別說打球了,所以就得找最懂行的人,然後和管理團隊建立信任。主持人:所以核心是要做一個有遠見的領導者,能長期帶領團隊朝著同一個方向走。那說到薪酬,你給阿里員工開的工資,是不是得和 NBA 球星一樣高才行?蔡崇信:其實是一個道理。我最操心的就是怎麼留住人才,優秀的人永遠搶手,總有競爭對手會挖牆腳。所以得制定合理的薪酬體系,而且針對公司裡的資深核心人才,還得量身定製薪酬方案。我自己的職責是啥呢?公司董事會有個薪酬委員會,成員都是獨立董事,但這些獨立董事並不瞭解公司的具體營運,也不熟悉每個員工的情況。所以我的工作就是向獨立董事和薪酬委員會說清楚,我們的核心團隊有多重要,說服他們給這些人才開高薪,因為他們確實值這個價。主持人:好的,我們還剩幾分鐘時間,我再問個簡單點的問題。能不能在兩分鐘內,給我們講講阿里巴巴的 AI 戰略?你們現在重點聚焦在那些方面,下一步又有什麼規劃?當然,不用透露太多商業機密。蔡崇信:我們的 AI 戰略其實特別簡單。第一,大語言模型和雲端運算業務兩手抓,靠雲端運算為 AI 和數字時代提供基礎設施來盈利;第二,把大語言模型開源,讓更多人能用上我們的技術。就這麼簡單,這就是我們的核心戰略。主持人:沒想到居然這麼簡單,我都學會怎麼管阿里了!你們在這個領域其實已經是絕對的龍頭了,雖然你沒明說。本來我想收尾了,但按照這個系列講座的傳統,我得先請陳坤耀教授來做總結髮言。 (大咖觀點)
【最新】黃仁勳作客喬羅根訪談:2.5 小時無指令碼猛料!黃仁勳解析 AI 競賽與安全攻防,社會經濟影響,還曝輝達逆襲史
在科技界,輝達(Nvidia)CEO黃仁勳(Jensen Huang)以其標誌性的皮夾克和對未來的敏銳洞察而聞名。然而,他很少進行長時間、無指令碼的深度對話。但就在剛不久,他卻罕見地做客知名播客節目《The Joe Rogan Experience》,與主持人喬羅根進行了一場罕見的、長達2個半小時的交流。這次交流,核心內容如下:一、川普政府的務實主義黃仁勳讚賞川普總統的“常識性”方法,特別是其支援增長的能源政策(“鑽探吧,寶貝,鑽探吧”),他認為這一政策對於支援AI行業所需的基礎設施建設(如晶片工廠和超級電腦)至關重要,實際上“拯救了AI產業”。二、人工智慧競賽與國家安全黃仁勳將當前的人工智慧發展置於持續不斷的技術競賽歷史背景之下,並強調其對國家實力的決定性作用。他認為,從工業革命到曼哈頓計畫再到冷戰,人類始終處於技術競賽之中。AI競賽只是這一歷史處理程序的最新階段,並且可能是“最重要的競賽”。他將技術領導力比作擁有“超能力”,無論是資訊、能源還是軍事領域,技術都是基礎。因此,在AI領域保持領先地位至關重要。三、關於AI的安全問題人們的一個普遍的擔憂是:隨著AI變得越來越強大,它會不會也變得越來越危險和不可控?這幾乎是所有科幻電影的核心情節。但黃仁勳將AI的“安全”定義為功能性和精準性,認為更強大的算力主要被用於提升AI的思考、研究和反思能力,從而產生更可靠的結果,而非科幻電影中的失控力量。他認為AI的發展是漸進的,不會出現某個實體突然獲得壓倒性優勢的“奇點”時刻。對於AI可能失控的擔憂,黃仁勳反覆提出“網路安全論點”。他認為未來不會是單一AI對抗人類,而是“我的AI”對抗“你的AI”。就像網路安全領域一樣,攻防技術會同步發展,形成動態平衡,防止任何一方取得絕對優勢。四、人工智慧的社會經濟影響黃仁勳探討了AI對就業、經濟和全球技術鴻溝的深遠影響。1.對就業的影響:任務替代與價值重塑他引用了放射科醫生的例子。儘管五年前有人預測AI將取代所有放射科醫生,但現實是放射科醫生的數量反而增加了。因為AI接管了研究圖像這一“任務”,讓醫生能專注於“診斷疾病”這一核心“目的”,從而服務更多病人,提升了整個醫療體系的經濟效益。他總結道,如果一個人的工作僅僅是“任務”,那很可能會被自動化取代。但大多數職業的“目的”不會改變,AI將成為增強人類能力的強大工具。2.全民基本收入與富足對於伊隆·馬斯克提出的“全民高收入”願景,黃仁勳認為未來可能介於“資源極度富足,人人富有”和“需要全民基本收入來維持生計”兩種極端情況之間。他傾向於前者,即AI將創造出巨大的資源富足,使得許多今天被視為有價值的東西變得唾手可得。3.縮小技術鴻溝:黃仁勳堅信AI將“顯著縮小技術鴻溝”,而非擴大它。主要原因在於AI是“有史以來最易於使用的應用”,使用者只需通過自然語言即可操作。他指出在過去十年中,NVIDIA將計算性能提升了10萬倍,這意味著未來AI計算所需的能源將變得“微不足道”。因此,即使是資源有限的國家也能負擔得起“昨天的AI”,而“昨天的AI”已經“非常了不起”。五、NVIDIA的傳奇起源黃仁勳詳細回顧了NVIDIA瀕臨破產的早期歷史。公司在選擇了錯誤的技術路線後,憑藉一系列關鍵決策得以倖存和崛起:說服世嘉(Sega)將一筆合同款項轉為救命投資、通過購買教科書從零學習正確的技術、耗盡公司一半資金購買一台停產的模擬器以確保晶片首次流片成功,以及與台積電(TSMC)進行一場豪賭。六、個人經歷與領導哲學作為第一代移民,黃仁勳分享了他從台灣到泰國,再到肯塔基州貧困地區的獨特成長經歷。他的領導哲學深受這些經歷影響,核心驅動力是“對失敗的恐懼”而非“對成功的渴望”。他強調,保持脆弱性和持續的危機感(“公司離倒閉永遠只有30天”)是企業能夠不斷調整和創新的關鍵。 (大咖觀點)
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)
誰將為這場史上最昂貴的AI軍備競賽買單?|大公司
過去數周,輝達股價經歷了一輪高位回呼與震盪。目前市值相較於一個月前的高點已下降15.4%。雖然一周前最新季度財報發佈後,公司超預期的業績表現一定程度上穩定了市場信心,但隔天股價的下跌反映著情緒底色依然是消極的。關鍵的是,這已不僅僅是輝達一家公司的悲歡,它的表現是觀察AI行業的核心風向標。再加上Alphabet、微軟、亞馬遜、Meta、蘋果、特斯拉,這七家技術公司繼承了商業歷史上石油七巨頭的強勢,利益捆綁關係緊密,以驚人的市值集中度成為美股的主心骨。根據中金公司資料,自2022年年底ChatGPT發佈以來,美股「七姐妹」(Magnificent Seven)最高上漲283%,大幅跑贏同期標普500指數扣除M7後的69%。最近一周,美國投資人Michael Burry公開警告AI泡沫,質疑以輝達為中心的技術公司之間的循環交易模式,重申他對輝達的看空立場。輝達對此予以駁斥,聲稱戰略投資在營收中佔比極小,且被投資公司的收入主要來自第三方客戶,以此反駁循環交易製造收入的指控。多家投資機構在三季度選擇買單離場。軟銀集團、Peter Thiel的避險基金清倉了其持有的全部輝達股票。避險基金橋水在三季度末已減持輝達股票,減持比例達65.3%。此外,橋水還減持了53%的Alphabet股票,36%的微軟股票和9.6%的亞馬遜股票。橋水首席投資官Karen Karniol-Tambour等人警告稱,當前的市場穩定性正面臨越來越高的風險。泡沫論頻出反映了資本市場的擔憂。以輝達為代表的技術公司市值高增長、資本高投入的背後,躲不過一個核心問題:這場由AI推動的牛市,究竟擁有堅實的基礎,還是一堆膨脹的泡沫?輝達的超預期業績未能緩解股市擔憂11月20日,輝達2026年第三財季業績發佈,營收創下570億美元紀錄,同比增長62%;淨利潤319.1億美元,同比增長65%,營收與利潤均超出華爾街預期。公司的核心增長引擎——資料中心,同比增長66%至512億美元,創下紀錄。財報發佈後,輝達股價一度漲超6%,不過隔天就又快速跌了回去,市場對於泡沫的擔憂並未緩解。輝達創始人兼CEO黃仁勳在電話會議上表示:「關於AI泡沫的說法很多,但從我們的角度來看,情況截然不同。」他在新聞稿中表示:「Blackwell的銷量遠超預期,雲端GPU也已售罄。訓練和推理領域的計算需求持續加速擴大,且均呈指數級增長。我們已進入AI的良性循環。」上述表態可以視為輝達對市場擔憂的回應。評價公司的業務是否健康,客戶集中度是一項關鍵指標。算力需求帶動輝達營收的增長,按理來說客戶應該更加分散,但輝達的客戶集中度卻不斷上升。2025財年,輝達直接客戶A、B和C的銷售額分別佔總收入的12%、11%和11%,合計34%。到了2026財年二季度,兩家直接客戶貢獻了總營收的39%,比例顯著高於去年同期。名單雖然未披露大客戶是誰,但投資者都知道輝達GPU絕大部分都賣給了微軟、Google、亞馬遜三家雲服務廠商,以及Meta這家自稱「寧願過度投資,也不願因為投資不足而掉隊」的社交巨頭。雲廠商購買輝達晶片是在囤貨還是已實際應用?黃仁勳強調「雲端GPU售罄」,這意味著終端使用者——需要訓練模型或運行AI應用的公司——對AI算力的需求極其旺盛。雲廠商買的輝達晶片沒有閒置在資料中心,雲廠商會持續下訂單,輝達的營收增長亦是可持續的。然而,本周一有媒體報導輝達的大客戶Meta正考慮斥資數十億美元購買Google的自研AI專用晶片。輝達股價在次日下跌超7%,收盤價177.82每股美元,為近一個月內的最低值。與之相對的,Google發佈用自研晶片訓練的Gemini 3模型之後,其母公司Alphabet股價一路上漲,今年迄今為止股價已上漲近70%,市值向4兆美元邁進。就在昨天,輝達少見地在社交平台X發聲,稱對Google在AI領域的巨大進步感到非常高興,將繼續為Google提供產品與服務。同時也強調,相較於專用積體電路(AISC),輝達領先業界一代,是唯一能夠運行所有AI模型,並應用於所有計算廠家的平台。事實上,包括Google、亞馬遜、特斯拉在內,越來越多大客戶都在加大自研晶片的投入。不過輝達還是對未來持樂觀態度,並給出了下一季度的業績預測:收入將達到650億美元,上下浮動2%。下遊客戶研發與資本支出激增,但生成式AI對其主營業務增長作用有限從晶片採購、模型訓練、有關AI的業務場景應用落地,再到自研AI晶片試圖打破輝達壟斷,這條供應鏈的每一個環節都支出不菲。技術公司的研發投入不斷上漲。Google、微軟、Meta、亞馬遜最近三個季度的研發開支累計達1870億美元。而用於建設AI基礎設施的投入增長得更快,上述四家公司截至最近三個季度的資本支出均已超過2024年的全年支出,未來還會持續擴大投入。源源不斷的資金投入是否給公司帶來有效的業績增長?AI給雲業務帶來的增長最直觀。市場研究機構 Synergy Research Group的資料顯示,三季度企業在雲基礎設施服務上的支出較上一季度增長超過75億美元,創下有史以來最大的環比增幅。亞馬遜、微軟與Google位列雲服務市場份額的前三名,它們三季度的全球市場份額分別為29%、20%與13%。自2017年以來,亞馬遜、微軟與Google的雲營收均實現了數倍甚至十倍的跨越式增長。2024年,亞馬遜雲服務營收超過千億美元,微軟雲服務營收接近千億美元規模。Google雲服務在最近三個季度呈現穩健的雙位數環比增長。不過,將雲業務從三家公司的總營收中剔除,其最近三個季度的營收同比增速均呈現不同程度的放緩。這表明技術公司的業績增長主要依賴雲業務驅動,AI對核心業務的滲透尚未體現在整體營收上。以Meta為例,其主要營收源自客戶給社交應用家族投放廣告。自2021年起至今,Meta的應用家族日活躍使用者數增長率維持在8%上下,AI並沒有給日活躍使用者數帶來顯著增長。2022年,蘋果iOS隱私政策重創Meta的廣告業務,致使其平均單次廣告價格下滑16%。後續Meta在財報中表示,公司投入資源在AI(包括生成式AI)上,借助AI最佳化廣告的投放、精準定向與效果評估。2024年,Meta的廣告展示次數同比增長11%,平均單次廣告價格同比增長10%,均重回雙位數增長。借助AI,Meta從2022年的營收危機中恢復,但也僅止於此。無論是通過雲將AI算力轉售給更下游的公司,還是用AI對既有業務降本增效,目前來看,AI對於技術公司帶來的效果還都是間接的、漸進的,它並沒有成為創造新流量的入口。從輝達爆發式的業績,到技術巨頭們激進的資本開支,再到它們平淡的營收增長,增長動能在產業鏈的傳導中出現了明顯的「邊際遞減」。AI資金的結構性風險:技術巨頭正用公共債券加槓桿然而,技術公司們押注生成式AI的熱情絲毫沒有減退的跡象。現在,它們正在競相建設資料中心。今年6月,亞馬遜宣佈將在北卡羅來納州建設資料中心,投資規模100億美元。11月,Google宣佈將投資400億美元,在德克薩斯州新建三個資料中心。Meta為建設資料中心,未來三年將在美國投資6000億美元。掀起AI競賽的OpenAI則在今年9月與甲骨文簽署協議,五年內購買其價值3000億美元的算力。7月,兩家公司還宣佈合作建設總功率達4.5千兆瓦的資料中心,具體費用未披露。與這些大規模投資相呼應的是技術巨頭們在2025年下半年不約而同開啟的「囤錢」模式。Google今年4月、11月兩次在歐洲市場發債,累計55億歐元(63億美元)。甲骨文9月發債規模達180億美元。亞馬遜11月發債規模達到120億美元。Meta 10月發債規模達到300億美元,吸引約1250億美元投資者認購,創下公開公司債發行史上最高紀錄。發債趨勢印證了資本市場有關「AI泡沫論」的擔憂:巨頭們利用大規模公共債券加槓桿,導致市場上的資金從高風險的股市流入低風險的債市。已處於高位的技術股或將面臨更多拋售風險。不止是瘋狂發債,技術公司之間錯綜複雜的投資與交易關係也飽受質疑。9月底,輝達宣佈向OpenAI投資高達1000億美元,幫助其建設10吉瓦算力的資料中心。作為回報,OpenAI承諾在這些資料中心部署數百萬塊輝達晶片。該協議隨即因「循環交易」的性質受到批評。晨星分析師Brian Colello談到該筆交易時表示:「如果一年後AI泡沫破裂,這筆交易可能是早期的蛛絲馬跡之一。」OpenAI預測2025年營收為130億美元,對外投資已累計約3800億美元。而根據彭博社援引知情人士消息稱,OpenAI預計要到2029年才能實現現金流為正,屆時其營收預計將超過1250億美元。伯恩斯坦研究公司分析師Stacy Rasgon在一份投資者報告中寫道:「Altman有能力讓全球經濟崩潰十年,也有能力帶領我們走向繁榮昌盛。目前我們還不知道那種結果會更糟。」 (新皮層NewNewThing)
Google瘋投千億!4年算力暴漲1000倍,AI競賽徹底變天
全球 AI 格局震盪Google的 “算力霸權” 野心藏不住了11 月 24 日,Google內部大會拋出的重磅消息炸翻科技圈:未來 4-5 年,AI 算力容量每 6 個月翻倍,最終實現 1000 倍暴漲!這不是空想家的口號 —— 千億投資已就位,自研晶片、AI 原生資料中心、全生態落地齊發力,Google正用 “基建革命” 重構 AI 競爭規則,一場關乎技術霸權、產業格局的算力戰爭正式打響。1. 自研晶片 + 光互聯:算力效率拉滿 6 倍Google最新一代 TPU 晶片 “Ironwood” 堪稱 “算力發動機”—— 每瓦特推理性能直接暴漲 6 倍,訓練效率提升 3.8 倍。簡單說,同樣的電費,Google能跑出 6 倍的 AI 運算速度;訓練同一個大模型,Google的時間只需要別人的零頭。更狠的是配套的 “Helix” 光互聯架構,把晶片間通訊延遲壓到微秒級,就像讓千萬個工人無縫協作,萬卡叢集擴展效率逼近理論極限,真正實現 “加多少晶片,算力就漲多少”。2. AI 原生資料中心:PUE 低至 1.08 的 “節能王者”算力再強,也要靠資料中心承載。Google直接推翻傳統資料中心設計,從冷卻系統到供電架構,全為 TPU 晶片量身定製,最終實現 PUE(能源使用效率)低至 1.08—— 要知道行業平均水平是 1.55,這意味著提供同樣 100P 算力,Google能比同行省近 50% 電費。省錢就是攢競爭力,在 AI 長跑中,低能耗帶來的持續作戰能力,遠比短期性能峰值更重要。3. 全端定製:擺脫供應商 “卡脖子”和其他企業 “採購 GPU 組裝” 不同,Google走上了 “自給自足” 之路:從晶片設計、伺服器製造到機櫃佈局,全靠自研或深度定製,甚至把詳細圖紙發給 ODM 廠商精準生產,公差控制在 0.1 毫米以內。這種模式不僅避開了硬體溢價和供應鏈風險,更實現了軟硬體深度協同,讓算力潛力發揮到極致 —— 這才是千倍算力目標的底氣所在。算力背後的 “王牌”:Gemini 3 撐起生態落地光有算力沒有應用,就是 “空轉的機器”。Google千倍算力計畫的核心支撐,是剛發佈的 Gemini 3 模型,它讓海量算力有了用武之地:能力天花板級表現:博士級推理測試得分 37.5%,醫療診斷精準率達 91.9%,支援 100 萬 Token 長上下文,能一次性解析整部電影或程式碼倉庫;在 LMArena 大模型競技場以 1501 Elo 得分登頂,程式設計、多模態理解等多項測試碾壓競品。應用場景無孔不入:已深度嵌入 32 億台 Android 裝置,覆蓋手機、辦公、娛樂全場景 —— 拍照自動最佳化、郵件即時翻譯、搜尋個性化推薦,使用者無需主動打開 App,就能隨時隨地用到 AI;Gemini 月活使用者已達 6.5 億,日均互動頻次 4.7 次,遠超 ChatGPT 的 1.2 次。開發者生態爆發:通過全新 Agent 開發平台 Antigravity,開發者能讓 AI 自主完成端到端軟體開發;1300 萬開發者用其建構作品,70% 雲端客戶使用Google AI 功能,算力需求正呈指數級增長。行業變天:從 “模型大戰” 到 “基建競賽”競爭焦點轉移:過去大家比模型參數、比多模態能力,現在Google證明,底層算力基建才是終極戰場。就像建高樓,別人還在糾結 “裝修風格”,Google已經把 “地基和框架” 做到了行業頂尖。全球算力進入 “ZFLOPS 時代”:根據 2025 世界計算大會報告,全球算力正從 EFLOPS 級(10¹⁸次 / 秒)邁向 ZFLOPS 級(10²¹ 次 / 秒),Google的千倍計畫正是這一趨勢的縮影。算力的指數級增長,將催生出 “行業大模型”“端側 AI” 等更多新業態。普通人的機會在那? 算力普惠將降低 AI 應用開發門檻:創業者不用再為算力成本發愁,能聚焦創新;職場人可借助 AI 工具提升效率,比如用 Gemini 3 生成互動式學習資料、編寫專業程式碼;投資者則需關注算力基建鏈條 —— 晶片、光互聯、資料中心節能等領域,或將成為下一個風口。而這一趨勢在本土市場同樣顯現,山西數智京雲等企業正將 AI 算力轉化為中小企業的 “獲客利器”:其自主研發的垂直領域內容生成系統,支援文字、圖像、視訊多模態互動,能 10 分鐘自動剪輯上千條原創短影片,搭配智能數字人開發平台,幫助呂梁國良汽修等傳統企業首月即實現 35 萬元線上訂單轉化,客戶轉介紹率提升 300%。這種 “算力下沉 + 場景深耕” 的模式,正是全球算力爆發背景下,本土企業抓住機遇的典型實踐。 (數智京雲千流引擎)